495 research outputs found

    Secure Recording of Itineraries Through Cooperating Agents

    Get PDF
    Security is a fundamental precondition for the acceptance of mobile agent systems. In this paper we discuss protocols to improve agent security by distributing critical data and operations on mutually supporting agents which migrate in disjunct host domains. In order to attack agents, hosts must form coalitions. Proper selection of itineraries can minimize the risk of such coalitions being formed

    On the Difference Between the Information Bottleneck and the Deep Information Bottleneck

    Full text link
    Combining the Information Bottleneck model with deep learning by replacing mutual information terms with deep neural nets has proved successful in areas ranging from generative modelling to interpreting deep neural networks. In this paper, we revisit the Deep Variational Information Bottleneck and the assumptions needed for its derivation. The two assumed properties of the data XX, YY and their latent representation TT take the form of two Markov chains TXYT-X-Y and XTYX-T-Y. Requiring both to hold during the optimisation process can be limiting for the set of potential joint distributions P(X,Y,T)P(X,Y,T). We therefore show how to circumvent this limitation by optimising a lower bound for I(T;Y)I(T;Y) for which only the latter Markov chain has to be satisfied. The actual mutual information consists of the lower bound which is optimised in DVIB and cognate models in practice and of two terms measuring how much the former requirement TXYT-X-Y is violated. Finally, we propose to interpret the family of information bottleneck models as directed graphical models and show that in this framework the original and deep information bottlenecks are special cases of a fundamental IB model

    Wandel und Zukunft der Datenverarbeitung und ihres Berufsfeldes

    Get PDF
    "Im Rahmen des "Landesprogramms Mensch und Technik" des Arbeitsministeriums in NRW hat das ISF Marburg "Die Zukunft der DV-Berufe" unter besonderer Berücksichtigung der sozialen Aspekte des sich vollziehenden Wandels in diesem Berufsfeld untersucht. Im Mittelpunkt der Studie stehen neue Erkenntnisse und zum Teil erstmals untersuchte Entwicklungen des Berufsfeldes DV. Die erkennbare Grundtendenz geht dahin, daß die einstmals privilegierte Stellung der DV-Fachkräfte gegen Ende der 80er Jahre relativ rasch abgebaut worden ist. Mit der zunehmenden Anwendungsnähe der DV aufgrund der Dezentralisierung bei gleichzeitiger rascher Steigerung der Leistungsfähigkeit von Computern und der Verbreitung von DV-Wissen über die angestammten Fachabteilungen hinaus hat sich der Spezialistenstatus der DV-Fachkräfte weitestgehend reduziert, während sich gleichzeitig das Berufsfeld Datenverarbeitung erheblich ausgeweitet hat. Obwohl diese Entwicklung nach einer Strukturierung und Systematisierung des Berufsfeldes Datenverarbeitung in der amtlichen Statistik verlangt, sind dort erhebliche Mängel festzustellen, mit denen sich diese Studie ausführlich auseinandersetzt. Es wird darüber hinaus versucht, praktikable Strukturierungs- und Systematisierungsangebote zu entwickeln, die differenziert dargelegt werden. Die gesamte Daten- und Informationsverarbeitung wird zunehmend durch die Anwendungserfordernisse der betrieblichen Fachabteilungen und nicht mehr vorrangig durch die Technikentwicklung bestimmt. Das hat erhebliche Konsequenzen für die Qualifikations- und Weiterbildungsanforderungen von DV-Fachpersonal. Gefordert ist über die DV-spezifische Qualifikation hinaus die Aneignung von fachübergreifendem Wissen. Besonders Kommunikations- und Koopperationsfähigkeit untereinander und zu den Anwendern ist als "soziale Kompetenz" verstärkt gefordert, wird aber noch zu wenig über die Aus- und Weiterbildung vermittelt. Weiter werden Belastungsanforderungen und Arbeitszeitregelungen von DV-Fachkräften untersucht, wobei die Studie zu dem Ergebnis kommt, daß das Belastungsniveau von DV-Fachkräften recht hoch ist und sie zugleich in erheblichem Umfang Mehrarbeit bzw. Überstunden leisten, was durch noch überdurchschnittlich hohe Einkommen abgegolten wird. Ein Überblick über wesentliche Forschungsergebnisse wird hiermit vorgestellt." (Autorenreferat)Datenverarbeitung - Entwicklung, informationstechnische Berufe, Berufsfelder - Strukturwandel, Qualifikationsanforderungen, Arbeitsbelastung

    Secure Authentication with Short Re-Usable Passwords

    Get PDF
    We present Knock Yourself Out (KYO), a password generator that enables secure authentication against a computationally unbounded adversary. Master passwords can be surprisingly short and may be re-used for multiple service accounts even in the event of client compromises and multiple server compromises. At the same time, KYO is transparent to service operators and backwards- compatible. Master passwords are fully client-manageable while secrets shared with service operators can be kept constant. Likewise, secrets can be changed without having to change one’s passwords. KYO does not rely on collision- resistant hash functions and can be implemented with fast non-cryptographic hash functions. We detail the design of KYO and we analyze its security mathematically in a random hash function model. In our empirical evaluation we find that KYO remains secure even if small sets of hash functions are used instead, in other words, KYO requires minimal storage and is highly practical

    Enhancing Situation Awareness in Real Time Geospatial Visualization

    Get PDF
    Today’s hardware and software infrastructure enables large-scale visualization of (near) real-time data in a geospatial context, which is attractive in a variety of application areas ranging from military applications to disaster management and incident response. The drawback on the other hand is that combined visualizations might lead to an overload of human processing capacity, for instance if multiple dynamic aspects must be observed in parallel. The objective for our research is to develop a solution which enhances the situation awareness of the user by identifying the appropriate means of visualizing information based on the user’s task and a given situation. In this paper, we propose an approach and associated system architecture how this objective can be reached. The primary ingredient of our approach is the combination of a GIS system and logic-based ontology representation and reasoning system

    Beyond Sparsity: Tree Regularization of Deep Models for Interpretability

    Get PDF
    The lack of interpretability remains a key barrier to the adoption of deep models in many applications. In this work, we explicitly regularize deep models so human users might step through the process behind their predictions in little time. Specifically, we train deep time-series models so their class-probability predictions have high accuracy while being closely modeled by decision trees with few nodes. Using intuitive toy examples as well as medical tasks for treating sepsis and HIV, we demonstrate that this new tree regularization yields models that are easier for humans to simulate than simpler L1 or L2 penalties without sacrificing predictive power.Comment: To appear in AAAI 2018. Contains 9-page main paper and appendix with supplementary materia
    corecore